多源迁移学习相关研究回顾
©PaperWeekly 原创 · 作者|张玮玮
学校|东北大学硕士
研究方向|情绪识别
Boosting for transfer learning with multiple sources
论文标题:Boosting for transfer learning with multiple sources
论文链接:https://ieeexplore.ieee.org/document/5539857
1.1 MultiSource-TrAdaBoost
首先介绍一下 TrAdaBoost 算法,其主要思想是:给定了某种训练方法,最终分类器是各迭代中分类器的加权和。源域数据与目标域数据合成一个训练集,并将训练集里面的样本赋予一个相同的初始权重,并将权重信息与样本信息组合起来得到一个初始基分类器。
源域数据可能不止一个的时候,即存在多个源域数据集,并且每个数据集相对目标域来说可具有不同的迁移性。在这种情况下 Tr AdaBoost 算法比较容易产生负迁移。
MultiSource-TrAdaBoost 算法不是单纯地从一个源到另外一个源域的知识迁移,而是从多个源同时进行知识的迁移,从这些源域数据中可以确定一个与目标域最相关的源域。
1.2 TaskTrAdaBoost
论文标题:Aligning Domain-Specific Distribution and Classifier for Cross-Domain Classification from Multiple Sources
论文来源:AAAI 2019
论文链接:https://www.aaai.org/ojs/index.php/AAAI/article/view/4551
代码链接:https://github.com/easezyc/deep-transfer-learning
2.1 Two-stage alignment Framework
1.2 Domain-specific Distribution Alignment
1.3 Domain-specific Classifier Alignment
由于分类器是在不同的源域上训练的,因此它们对目标样本特别是类边界附近的目标样本的预测可能会产生分歧。直观上,不同分类器预测的相同目标样本应该得到相同的预测结果。
1.4 Multiple Feature Spaces Adaptation Network
靠近类边界的目标样本容易被误分类,为此,论文提出了一个多特征空间适应网络(简称 MFSAN)。框架由一个共同特征提取器、N 个源域特定的特征提取器和 N 个源域特定的分类器组成。
1.5 Experimental Results
论文标题:Multi-Source Domain Adaptation for Text Classification via DistanceNet-Bandits
论文来源:AAAI 2020
论文链接:https://arxiv.org/abs/2001.04362
这是一篇多源迁移学习运用在 NLP 背景下的文本分类的论文,来自于 AAAI 2020。论文设计了一个使用多个距离测度或距离测度的混合的距离网模型,作为附加的损失函数,与任务的损失函数共同最小化,从而实现更好的无监督域自适应。
3.1 Domain Distance Measures
Distance: 距离测量源域和目标域样本之间的欧氏距离
Cosine Distance:余弦相似度是内积空间的两个向量之间的相似度的度量。
Maximum Mean Discrepancy(MMD):最大均值差异是迁移学习中使用频率最高的度量。Maximum mean discrepancy,它度量在再生希尔伯特空间中两个分布的距离,是一种核学习方法。两个随机变量的 MMD 平方距离为:
Fisher Linear Discriminant:通常情况下,使用最优 作为域距离的表示:
Correlation Alignment(CORAL):Correlation Alignment(CORAL)定义为源样本与目标样本的二阶统计量之间的距离:
Mixture of Distances:在论文中证明了没有任何一种距离度量优于其他所有的距离度量。另外,虽然不同的距离度量提供不同的域距离估计,但每种距离度量都有其缺陷。因此,距离度量的混合是非常有用的:
3.2 Models
3.2.1 Baseline Model
3.2.2 DistanceNet
3.2.3 Dynamic Multi-Source DistanceNet using Multi-Armed Bandit
DistanceNet 描述了在单一源/目标域上拟合模型的方法。然而,当访问多个源域时,就需要更好的方法来利用这些额外的学习信号。一个简单的方法是将这些多个源域视为单个大源域,并像上述模型一样应用前面描述的算法。
但是,随着模型表示在整个训练过程中发生变化,能够提供最有信息的训练信息可能会随着训练过程的变化而改变。这也与目标域在一段时间内学习每个源域的权值有关(Ben-David et al. 2010)。因此,动态选择源域的顺序以在目标域任务上实现最佳结果可能更有利。
如右上图所示,论文引入了一种多臂赌博机控制器,用于在训练期间动态改变源域。将控制器建模为 M 臂赌博机(其中 M 是候选域的数量),其目标是选择一系列候选域,以最大化预期的未来回报。在每一轮循环中,赌博机基于噪声值估计选择一个候选域并观察奖励。
更具体地说,随着训练的进行,控制器选择的一个训练领域和任务模型在选定的领域使用指定的损失函数,性能验证数据将被反馈给赌博机作为奖励。
3.3 Experimental Results
表 4 显示了当源域和目标域不同时 Baseline Model 和 DistanceNet 的结果,其中最后一列显示平均结果。与表 3 中的数字进行比较,可以看到,当数据分布发生变化时,性能会下降。
更多阅读
#投 稿 通 道#
让你的论文被更多人看到
如何才能让更多的优质内容以更短路径到达读者群体,缩短读者寻找优质内容的成本呢?答案就是:你不认识的人。
总有一些你不认识的人,知道你想知道的东西。PaperWeekly 或许可以成为一座桥梁,促使不同背景、不同方向的学者和学术灵感相互碰撞,迸发出更多的可能性。
PaperWeekly 鼓励高校实验室或个人,在我们的平台上分享各类优质内容,可以是最新论文解读,也可以是学习心得或技术干货。我们的目的只有一个,让知识真正流动起来。
📝 来稿标准:
• 稿件确系个人原创作品,来稿需注明作者个人信息(姓名+学校/工作单位+学历/职位+研究方向)
• 如果文章并非首发,请在投稿时提醒并附上所有已发布链接
• PaperWeekly 默认每篇文章都是首发,均会添加“原创”标志
📬 投稿邮箱:
• 投稿邮箱:hr@paperweekly.site
• 所有文章配图,请单独在附件中发送
• 请留下即时联系方式(微信或手机),以便我们在编辑发布时和作者沟通
🔍
现在,在「知乎」也能找到我们了
进入知乎首页搜索「PaperWeekly」
点击「关注」订阅我们的专栏吧
关于PaperWeekly
PaperWeekly 是一个推荐、解读、讨论、报道人工智能前沿论文成果的学术平台。如果你研究或从事 AI 领域,欢迎在公众号后台点击「交流群」,小助手将把你带入 PaperWeekly 的交流群里。